Logo

Risiko und Gefahren

Sicherheit

Sicherheitsrichtlinien für Roboter ergeben sich aus dem jeweiligen Einsatzbereich und dem Robotertyp. Industrieroboter werden durch gesetzlich vorgeschriebene Sicherheitsvorkehrungen wie Käfige, Gitter, Lichtschranken oder andere Barrieren abgesichert. Mit zunehmender Autonomie jedoch benötigen gegenwärtige oder zukünftige, komplexere Robotersysteme den Umständen entsprechend angepasste Sicherheitsvorkehrungen. Durch den vielfältigen Einsatz von Robotern ist es jedoch schwierig, universelle Sicherheitsregeln für alle Roboter aufzustellen. Auch die von Science-Fiction-Autor Isaac Asimov in seinen Romanen aufgestellten „Vier Regeln der Robotik“ können nur als ethische Richtlinien für eine mögliche Programmierung verstanden werden, da unvorhersehbare Situationen vom Roboter nicht kalkulierbar sind. Je autonomer ein Roboter im Umfeld des Menschen agiert, desto größer ist die Wahrscheinlichkeit, dass Lebewesen oder Gegenstände zu Schaden kommen werden. Ebenso ist die Vorstellung umstritten, dass Roboter dem Menschen Schutz bieten können – nicht zuletzt aufgrund der Unschärfe des Begriffes Schutz.

Moralische Unterschiede zwischen Mensch und Roboter

Dass hier keine absoluten Werte programmiert werden können, zeigt sich parallel in der Diskussion über das Spannungsverhältnis zwischen Schutz und Bevormundung. Diese Problematik wird zum Beispiel im Film I, Robot thematisiert, wo auf Grund einer berechneten „Überlebenswahrscheinlichkeit“ ein Mann durch einen Roboter aus einem ins Wasser gestürzten Auto gerettet wird, während ein Kind in einem ebenfalls sinkenden Auto ertrinkt. Ein Mensch hätte wahrscheinlich statt auf Grund einer abstrakten Überlebenswahrscheinlichkeit eher nach ethisch-moralischen Prinzipien gehandelt und zuerst das Kind gerettet.

Risiken in Verwendung von Kriegen

Zur Gruppe der Roboter gehören auch autonome Waffen- oder Aufklärungssysteme wie Smart Bombs, unbemannte Drohnen, Wachroboter oder zukünftig denkbare autonome Kampfroboter. Werden solche gefährlichen Maschinen zur Kriegführung verwendet, wird die Frage nach ethischen Werten in der Programmierung ggf. überflüssig und es zeigt sich, dass die Forderung nach universellen Sicherheitsmaximen für alle Anwendungsgebiete und Robotertypen offenbar eine nur schwer zu lösende Aufgabe darstellt. Die Berücksichtigung ethischer Werte in der Verwendung von Robotern ist auch kein Thema, dem die Menschheit erst in der Zukunft gegenüberstehen wird. Bereits im Zweiten Weltkrieg wurden Schiffe durch Torpedos mit Navigationssystem versenkt, oder Gebäude durch V1-Marschflugkörper zerstört, die durch ihre Funktionsweise Input, Processing and Output der Definition eines Roboters entsprechen. Auch gegenwärtig werden Menschen gezielt von komplexen, autonom agierenden Maschinen direkt oder indirekt verletzt oder getötet. Im April 2008 wurde eine SWORDS genannte Bauserie autonom agierender bewaffneter Roboter für den Einsatz im Irakkrieg durch das amerikanische Verteidigungsministerium aus dem Dienst zurückgezogen, da sich bei mehreren Vorfällen der Waffenarm des Roboters gedreht hatte, obwohl dies in der jeweiligen Situation nicht vorgesehen war. Obwohl bei den Vorfällen niemand verletzt worden war, wurden die Roboter darauf hin als unsicher eingestuft, und der Feldeinsatz abgebrochen.

Quellen